为了 1% 情形,牺牲 99% 情形下的性能:蜗牛般的 Python 深拷贝

您所在的位置:网站首页 登录visual studio为什么那么慢 为了 1% 情形,牺牲 99% 情形下的性能:蜗牛般的 Python 深拷贝

为了 1% 情形,牺牲 99% 情形下的性能:蜗牛般的 Python 深拷贝

2024-06-10 04:11| 来源: 网络整理| 查看: 265

最近使用 Python 一个项目,发现 Python 的深拷贝 copy.deepcopy 实在是太慢了。

相关背景

在 Python 中, 我们有两种拷贝对象的方式:浅拷贝和深拷贝。浅拷贝和深拷贝都可以在 copy 模块中找到, 其中 copy.copy() 进行浅拷贝操作, copy.deepcopy() 进行深拷贝操作。浅拷贝是在另一块地址中创建一个新的对象,但是新对象内的子对象引用指向源对象的子对象。如果这时候我们修改源对象的子对象的属性, 新对象中子对象的属性也会改变。为了获取一个和源对象没有任何关系的全新对象,我们需要深拷贝。深拷贝是在另一块地址中创建一个新的对象,同时对象内的子对象也是新开辟的,和源对象对比仅仅是值相同。

下面用一个例子说明浅拷贝和深拷贝的区别。下面的代码将输出 “b [2,2,3]” 和 “c [1,2,3]”。

代码语言:javascript复制import copy class A: def __init__(self): array = [1,2,3] a = A() b = copy.copy(a) c = copy.deepcopy(a) a.array[0] = 2 print "b",b.array print "c",c.array

b 是由 a 浅拷贝而来,c 是由 a 深拷贝而来。修改 a.array 之后, b.array 也随之发生变化。其实 a.array 和 b.array 指向同一个对象。而 c.array 则保持原样。

深拷贝比浅拷贝符合人类的直觉,代价就是深拷贝实在是太慢了。下面代码中,case1 和 case2 是等价的。在我的机器上测试,case1 不到一秒,而 case2 则达到了 十秒。那么深拷贝为什么那么慢呢?

代码语言:javascript复制import copy class A: def __init__(self): array = [1,2,3] a = [A() for i in xrange(100000)] a[10].array[0] = 100 ### case1 b = [A() for i in xrange(100000)] for i in xrange(100000): for j in xrange(3): b[i].array[j] = a[i].array[j] ### case2 c = copy.deepcopy(a)深拷贝分析

为了搞清楚为什么 Python 深拷贝这么慢,我阅读了下 Python 2.7 版本的 copy.deepcopy 的实现: https://github.com/python/cpython/blob/2.7/Lib/copy.py。其大体结构为:

代码语言:javascript复制def deepcopy(x, memo=None, _nil=[]): if memo is None: memo = {} d = id(x) y = memo.get(d, _nil) if y is not _nil: return y cls = type(x) copier = _deepcopy_dispatch.get(cls) if copier: y = copier(x, memo) else: ... ## 其他特殊的拷贝方式 memo[d] = y return y

其中 memo 保存着所有拷贝过的对象。为什么要设置 memo 呢?在某些特殊情况下,一个对象的相关对象可以指向它自己,比如双向链表。如果不将拷贝过的对象存着,那程序将陷入死循环。另外一个值得注意的点是 copier = _deepcopy_dispatch.get(cls),这行代码根据待拷贝对象的类型,选择相应的拷贝函数。可选的拷贝函数有:用于拷贝基本数据类型的 _deepcopy_atomic, 用于拷贝列表的 _deepcopy_list,用于拷贝元组 _deepcopy_tuple,用于拷贝字典 的 _deepcopy_dict,用于拷贝自定义对象的 _deepcopy_inst 等等。其中比较重要的拷贝函数 __deepcopy_inst 代码如下所示:如果对象有 _ _ deepcopy _ _ 函数,则使用该函数进行拷贝;如果没有,那么先拷贝初始构造参数,然后构造一个对象,再拷贝对象状态。

代码语言:javascript复制def _deepcopy_inst(x, memo): if hasattr(x, '__deepcopy__'): return x.__deepcopy__(memo) if hasattr(x, '__getinitargs__'): args = x.__getinitargs__() args = deepcopy(args, memo) y = x.__class__(*args) else: y = _EmptyClass() y.__class__ = x.__class__ memo[id(x)] = y if hasattr(x, '__getstate__'): state = x.__getstate__() else: state = x.__dict__ state = deepcopy(state, memo) if hasattr(y, '__setstate__'): y.__setstate__(state) else: y.__dict__.update(state) return y

深拷贝需要维护一个 memo 用于记录已经拷贝的对象,这是它比较慢的原因。在绝大多数情况下,程序里都不存在相互引用。但作为通用模块,Python 深拷贝必须为了这 1% 情形,牺牲 99% 情形下的性能。

一个场景

上面给出了深拷贝效率对比的结果,已经可以看出深拷贝很慢了,但没有办法直观感受深拷贝拖累整个程序的运行速度。下面给一个实际项目的例子,最近在写的一些游戏环境。玩家程序获得游戏环境给出的信息,当前玩家程序选择合适的动作,游戏环境根据该动作推进游戏逻辑;重复上述过程,直到分出胜负;整个过程如下所示。给玩家程序的信息必须从游戏环境深拷贝出来。如果给玩家的信息是从游戏环境浅拷贝出来的,那么玩家程序有可能通过信息获取游戏秘密或者操纵游戏。

我们已经知道默认的深拷贝很慢。为了改进深拷贝的效率,我们在信息类以及相关类都添加了 _ _ deepcopy _ _ 函数,下面是信息类示例。

代码语言:javascript复制class FiveCardStudInfo(roomai.abstract.AbstractInfo): public_state = None person_state = None def __deepcopy__(self, memodict={}): info = FiveCardStudInfo() info.public_state = self.public_state.__deepcopy__() info.public_state = self.person_state.__deepcopy__() return info

简单做了一个效率对比实验:让随机玩法玩家打一千局梭哈,统计耗时。实验结果如下所示。

使用原始深拷贝,程序运行时间为 143 秒,其中深拷贝时间 134 秒,深拷贝时间占整个程序时间的 94%。使用了改进深拷贝,程序运行时间是 23 秒,其中深拷贝时间 16 秒,占比为 69 %。虽然深拷贝依然占到了 69%,相比之间 94 % 已经下降很多。整个程序运行时间也从 134 秒减少到 23 秒了。

总结

Python 的深拷贝很慢,原因在于深拷贝需要维护一个 memo 用于记录已经拷贝的对象。而维护这个 memo 的原因是为了避免相互引用造成的死循环。绝大多数情况下,程序中不存在相互引用。但作为通用模块,Python 深拷贝必须为了这 1% 情形,牺牲 99% 情形下的性能。真是无奈呀。我们可以通过自己实现 _ _ deepcopy _ _ 函数来改进其效率。



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3